#AI GPU
老黃秘密武器曝光:AI一夜設計晶片,頂人類頂級工程師10個月!
8人團隊做10個月,AI只需一夜!輝達祭出「造芯」神技:晶片設計效率狂飆百倍,非人類直覺的設計方案驚呆工程師。矽基生命開始自進化,人類正退居二線?進來看黃仁勳的秘密武器。就在今天,這條消息全網刷屏了。輝達用AI設計GPU,原本需要8名資深工程師10個月才能完成的任務,一夜就完成了!在剛剛過去的輝達GTC大會上,首席科學家Bill Dally與Google首席科學家Jeff Dean的一場巔峰對話,揭露了令人震驚的這個事實。現在,這個Youtube演講已經有上萬人觀看,受到網友們的盛讚。在半導體行業的歷史長河中,摩爾定律曾是不可踰越的真理,但隨著物理極限的逼近,研發一款旗艦GPU的複雜程度已呈指數級增長。但現在,輝達的AI造芯神技,幾乎讓人類工程師徹底退居二線了?從「80個人月」到「一塊GPU的一夜」在傳統晶片設計流程中,標準單元庫(Standard Cell Library)的遷移是一項極度枯燥且耗時的重體力活。每當台積電或三星推出新的半導體工藝(如從5nm跨越到3nm),輝達必須將其包含約2500至3000個單元的基礎庫重新適配新工藝。Bill Dally透露,過去這項任務需要一個由8名資深工程師組成的團隊,連續奮鬥10個月才能完成,總計耗費80個人月的人力成本。但在AI介入後,這一切被徹底顛覆了!現在,輝達開發了一款基於強化學習的工具——NB-Cell。只需將需求輸入系統,一塊GPU在一夜之間即可完成全部遷移工作。在這個過程中,NB-Cell通過不斷的試錯和自我最佳化,在極短時間內探索數以億計的設計排列組合。令人震驚的是,AI生成的單元在尺寸(Area)、功耗(Power)和延遲(Delay)等核心指標上,不僅達到了人類水平,甚至在某些案例中優於人類的手工設計。這種「隔夜交付」的能力,意味著輝達可以比競爭對手更早地跑通新工藝,從而在硬體競賽中始終保持身位領先。AI在晶片設計中的具體應用層次邏輯重塑:Prefix RL與「非人類直覺」的佈局如果說NB-Cell解決的是重複性勞動,那麼Prefix RL則展示了AI在複雜邏輯設計上的創造力。在晶片的算術邏輯單元(ALU)中,進位前瞻鏈(Carry Lookahead Chain)的放置是一個研究了幾十年的經典難題。人類工程師憑藉經驗和直覺進行佈局,往往會達到一個性能瓶頸。但Prefix RL系統給出了一份完全不同的答案。Dally形容,AI生成的佈局是「人類永遠無法想到的怪異設計」。這些設計違背了傳統電子工程的審美,但在性能表現上,卻比人類最優設計提升了約20%到30%。這標誌著一個轉折點:AI不再僅僅是人類的助手,它正在突破人類認知的邊界,去尋找那些隱藏在數百萬維空間中的「最優解」。矽基導師Chip Nemo,讓初級工程師「原地升級」在輝達內部,人力資源的錯配曾是一個很大的隱痛:資深設計師往往需要花費大量時間指導新人,解釋某個特定硬體模組(RTL)是如何工作的。為了釋放核心生產力,輝達開發了內部大語言模型——Chip Nemo和Bug Nemo。不同於市面上的通用LLM,這些模型基於輝達數十年積累的專有架構文件、RTL程式碼和硬體規格進行微調。經過私有化訓練,它們是「最懂輝達GPU」的專家。初級工程師遇到複雜的模組設計不再需要去打擾忙碌的高級工程師,而是直接詢問Chip Nemo。它能像一位極具耐心的導師,條分縷析地解釋GPU的工作原理。Bug Nemo則負責彙總錯誤報告,自動將Bug分配給最合適的工程師或模組,極大地縮短了晶片驗證這一「長跑階段」的時間。AI真的能完全自主「造芯」嗎?儘管效率提升了百倍,但Bill Dally在對話中依然保持了極其清醒的克制。他明確指出,完全端到端的自動化晶片設計(即只需說一句「給我設計一個新GPU」,AI就吐出完整圖紙)距離實現還有「很長的路要走」。目前,AI扮演的角色更像是「增強設計(Augmented Design)」,而非自主造芯。其中有三大關鍵限制:高層級架構決策仍依賴人類專家。創造性電路設計和複雜邏輯結構仍需人工主導。設計驗證仍是整個流程中最長的「長桿」,AI只能輔助加速,無法完全閉環也就是說,框架設定的部分,比如頂層的邏輯架構、跨模組的協調以及關鍵的決策,依然牢牢掌握在人類手中。另外,雖然AI可以加速驗證,但最終的模擬模擬和實際實驗依然必不可少,以確保晶片在物理世界中萬無一失。輝達的實踐表明,AI並非淘汰工程師,而是重構工程師的工作方式。初級工程師需要通過Chip Nemo自主學習複雜模組的工作原理,減少對資深工程師的打斷。資深工程師能從重複性任務中解放,專注於更高價值的創新和決策。在整體流程上,AI負責大規模搜尋、最佳化、驗證,人類負責目標設定、約束定義、創意引導。只是一種「人類設定框架 + AI極速執行」的協同模式。而Dally構想的未來,是一個「多智能體(Multi-agent)」模型,不同的專業AI系統處理不同的設計環節,就像現在的各職能團隊一樣協作。長期目標仍是端到端自動化設計,但需要克服驗證、介面協商、動態調整等難題。目前的進展已經讓輝達能夠 更快地迭代下一代硬體,成為維持摩爾定律的重要支撐。人類工程師,還不能被替代當8名工程師10個月的工作被一塊GPU的一夜取代時,我們不得不直面一個殘酷的現實:平庸的體力型工程勞動正在迅速貶值。輝達正在構築一道由AI驅動的技術壁壘。當競爭對手還在通過增加人力來追趕進度時,輝達已經進入了「AI設計AI,AI最佳化AI」的自循環體系。這種效率上的降維打擊,正是其能夠一年一更旗艦顯示卡的核心密碼。對於晶片工程師而言,這既是危機也是機遇。人類正從繁瑣的布線、搬運單元中解脫出來,被迫向更高層級的架構思考、更複雜的創造性決策進化。在矽基造芯的新紀元。在這裡,計算不再僅僅是晶片的目的,計算已成為晶片誕生的源頭。 (新智元)
儲存為什麼不擴產?
大家晚上好,我是刀哥。市場已經沒啥好說的了。這幾天我是天天看到小作文,甚至今天看到一個離譜的AI圖文,說是一些消費的行業大佬都集體去看光了。光模組確實離譜。但是,底層的邏輯還是我們之前提到的算力鏈路的硬體類股,上游其實比較多,GPU、CPU、儲存、半導體、裝置、材料,再往上看到大宗商品、電網裝置、AIDC等等,其中光模組算是這條鏈路中的一個模組,只是漲的最多。但儲存其實漲的也挺多。所以這是普漲的行情,只是內部有分化。但只要你主線抓到了這條鏈路,基本上不會差。我們其實在1月28號的會員內部直播就有專題提到CPU的事兒。其實當時我記得還畫了個圖:總之,當時其實已經深入淺出的講了這個點了。現在看了下,我們還是講的太超前了。實際上CPU也是最近才開始漲起來了。我最近又不斷的看到CPU又要漲價了。其實這就是供需失衡,而且這種供需失衡一時半會還不太可能結束。供給這塊代工有壓力,產能不足;需求因為Agent的發展,AI的發展,需求一直猛增。包括我們當時也提到儲存我們同樣認為因為產能的原因,2026年,其實一直缺貨的邏輯,甚至2027年都是。以及像台積電,其實是同樣的邏輯,要到2028年產能才能擴起來,那麼現在AI這麼發展,Token瘋了一樣增長,2026年、2027年怎麼辦?而且儲存廠商跟商量好了的似的,幾乎都不擴產。這背後的真實原因,大家要深刻理解。在口罩之後的2023-2024 年,一個巨虧的教訓。三星、SK 海力士、美光合計虧損超1500 億元,價格跌到成本線以下,當時這些公司要崩了都。你看這圖看起來還挺好的,對吧。似乎只要熬過來就沒問題,但是你要知道,我們單獨看這段:其實那個時刻是很不好的時刻。所以,現在很簡單,大家不再比誰擴產快,而是控產能、穩價格、提毛利。還有就是,漲價賺的錢,遠比重資產擴產更穩、更賺。而這個行業的寡頭只有三家,這三家佔 DRAM 93%、NAND 80%+,誰先亂擴產,全行業崩盤,大家都不敢先動手。三家也都默契了。當然,我們周報也提了,國內有兩家公司準備擴產,一個是長江儲存,一個是長鑫儲存。還有,即使擴產,也不容易的:總之,這個行業形成了一致性。還是回到之前的內容來。這次核心看還是硬體。而現在A股的大資金其實都在抱團光模組,這個盤子可能更適合他們抱團。於是就這樣了。當然光模組本身有業績,這也是很好的。 (柳葉刀財經)
中國自研2nm GPU來了!
據報導,棣山科技對外披露其2nm高端AI GPU晶片最新研發進展。據悉,該款2nm AI GPU原型晶片採用FinFET/GAA混合製程與Chiplet異構整合架構,搭載公司自主研發的“棣山智核(DS- Core)”,核心電晶體數量達1700億顆,採用2.5D CoWoS-L先進封裝技術。性能表現上,這款晶片FP32單精度算力可達50 TFLOPS,FP16半精度算力達100 TFLOPS,FP4低精度算力高達400 TFLOPS,可靈活適配不同精度需求的人工智慧大模型訓練、推理等高端算力場景;能效比較上一代產品提升40%,典型功耗控制在350W以內,每瓦算力可達142 GFLOPS。同時,研發團隊成功攻克高頻寬記憶體(HBM)封裝互聯、超低延遲片間通訊(<0.25ns/mm)、微流道高效熱管理三大核心技術瓶頸,其中搭載的HBM4記憶體單顆容量達48GB,引腳速率超11Gb/s,記憶體頻寬可達3.2TB/s,相較上一代HBM3E頻寬提升約2.5倍,可滿足大模型訓練時海量資料的高速傳輸需求;微流道熱管理技術可使晶片熱失控風險降低68%,晶片工作溫度穩定控制在85℃以下。此外,該晶片支援NVLink 6相容互連協議,單鏈路頻寬達1.6TB/s,多晶片互聯時可實現無瓶頸協同運算,進一步提升整體算力規模,同時相容主流CUDA軟體生態,可大幅降低下遊客戶技術遷移成本。截至2026年4月13日,棣山科技這款自主研發的2nm高端AI GPU晶片尚未進入正式流片階段,仍未完成從設計方案到實體晶片的關鍵跨越。在2026年舉辦的日本國際半導體裝置及材料展覽會等國內外核心半導體行業展會上,棣山科技對外公開了該款晶片的完整設計方案、核心技術參數及多輪模擬測試資料,重點展示了其在2nm製程適配、Chiplet異構整合、自研智核架構等方面的核心技術突破,讓行業各界及市場主體直觀瞭解到該晶片的設計實力與發展潛力,披露具體的流片啟動時間節點。 (半導體技術天地)
摩爾線程 率先完成MiniMax M2.7大模型適配
4月12日,摩爾線程旗艦級AI訓推一體全功能GPU MTT S5000已完成對新一代大模型MiniMax M2.7的Day-0極速適配,再次驗證了中國國產全功能GPU對前沿AI大模型的快速響應與穩定支撐能力。MiniMax M2.7是業界首個具備深度自我進化能力的大模型,能夠自主建構Agent Harness,通過Agent Teams協作、複雜Skills呼叫及Tool Search Tool等能力完成複雜生產力任務,甚至深度參與自身迭代。在軟體工程領域,M2.7支援端到端完整項目交付、日誌分析排障、程式碼安全審查及機器學習任務;在專業辦公場景,其Excel/PPT/Word高保真編輯與多輪修改能力顯著提升,即使在超長上下文複雜任務中仍保持穩定的高水平skills遵循率。與此同時,該模型對長上下文處理、複雜Agent任務調度及高保真編輯等場景提出了極高的計算效率要求。針對上述挑戰,摩爾線程技術團隊基於MUSA架構完成深度調優,成功在MTT S5000上實現M2.7大模型的高性能推理,核心技術優勢包括:▼超長上下文高吞吐:依託MTT S5000的80GB大容量視訊記憶體、1.6TB/s高頻寬及PD分離架構,配合高效KV Cache管理,支撐MiniMax M2.7長時間、多步驟任務的穩定執行。▼全精度端到端支援:MTT S5000原生支援FP8至FP64全精度計算,可滿足程式碼生成、金融建模等場景對混合精度及高精度計算的要求,確保決策精準可靠。▼高算力低延遲推理:MTT S5000單卡可提供1000 TFLOPS稠密算力,結合vLLM-MUSA定製化調優,實現複雜Agent Harness與高頻工具呼叫場景下的低延遲響應。▼強大生態相容性:深度相容PyTorch、vLLM、SGLang、Triton等主流生態,通過MUSA C++、Triton-MUSA、TileLang-MUSA等抽象層實現新算子“零成本遷移”,確保前沿模型發佈當日完成極速適配。此次Day-0適配是摩爾線程常態化技術響應能力的再次體現。依託 MUSA 架構對主流AI生態的深度相容與持續演進,中國國產全功能GPU算力底座已形成覆蓋前沿模型“極速適配-高效部署”的全鏈路支撐體系,幫助開發者以更快響應、更穩運行、更低遷移成本第一時間接入最新模型能力,加速大模型創新落地與規模化應用。 (深科技)
華為被認可了!
大衛·薩克斯的表態,近期在科技圈引發不小震動。這位川普的科技政策顧問,近日接受了彭博電視台採訪。他現任總統科技顧問委員會主席,話語權足夠份量。薩克斯直言,中國AI晶片設計已落後美國僅1.5到2年。更關鍵的是,他預判華為不久後會對外出口AI晶片。這一動作,或將點燃全球技術堆疊主導權的爭奪戰。薩克斯也承認,華為GPU生產仍受限制,但追趕速度驚人。“華為尚未達到頂尖水平,但未來一定會改變。”他如此判斷。他的擔憂很直接,華為若成重要GPU供應商,美企將承壓。川普政府的核心目標,是讓美國技術堆疊成為全球標準。為此,拜登時期的“擴散規則”已被正式放棄。那項規則曾限制美國GPU出口,還要求買家申請許可證。薩克斯解釋,過度限制盟友,反而會錯失鎖定市場的機會。他認為,阻止最先進半導體流向中國合理,但別傷了盟友。過去的法規,無異於“因擔心風險而自傷科技產業的腳”。薩克斯的履歷也印證了他的行業洞察力。他曾是貝寶前COO,還創辦過被微軟收購的Yammer。2024年底,他被川普任命為白宮AI和加密貨幣負責人。華為這邊,任正非近期也有清醒表態。他坦言,自家GPU確實落後美國頂級產品一代。但華為有自己的應對方式,用數學補物理、群計算補單晶片。這種思路下,華為晶片能達到實用水平,滿足多數AI需求。很多AI工作負載,本就不需要最尖端的硬體支撐。只要華為能以合理價格供貨,搭建成熟生態。完全有能力在部分市場,挑戰輝達和AMD的地位。輝達CEO黃仁勳,也曾公開批評美國的出口管制。他直言這些政策“完全錯誤”,只會適得其反。全球一半AI研究人員是中國人,堵不住創新的腳步。美國的限制,還讓輝達損失了巨額中國市場收入。僅H20晶片禁令,就導致其損失55億美元庫存和150億營收。黃仁勳也認可華為的實力,稱其是“世界級科技公司”。薩克斯的判斷,其實藏著美國的戰略焦慮。放棄過度限制,不是妥協,而是想鎖定盟友市場。遏制中國先進晶片,同時鞏固美國技術的全球主導權。華為若真啟動AI晶片出口,格局會發生微妙變化。國產晶片出海,不僅是營收突破,更是生態突圍。中美AI晶片的差距在縮小,競爭只會愈發激烈。華為能否打破壟斷,關鍵看生態搭建的速度和質量。而美國的政策調整,也會持續影響全球半導體格局。這場技術博弈,沒有旁觀者,每一步都關乎未來走向。 (1 ic芯網)
輝達吉瓦級 AI 工廠:重塑算力新未來
輝達推進吉瓦級AI算力中心(AI工廠),是全球AI算力從“兆瓦級”邁向“吉瓦級”的里程碑式躍遷,本質是算力基礎設施革命+產業生態卡位+全球競爭升級的三重疊加,影響極其深遠。一、先看:吉瓦級到底是什麼量級- 1吉瓦(1GW)= 1000兆瓦(1000MW)- 傳統超算/雲資料中心峰值多在100–300MW;吉瓦級是3–10倍- 相當於一座中型城市的用電負荷,需專屬變電站、液冷、微電網- 單中心可部署數十萬–百萬級GPU,支撐兆參數模型規模化訓練與推理二、核心技術:不是堆機器,是全端重構輝達不是簡單擴規模,而是從晶片到資料中心的極致協同設計:- 晶片層:Vera Rubin(3nm+HBM4)、Blackwell,單Token成本降10倍,推理性能是H100的5倍- 供電:800V直流架構,同銅纜功率提升150%+,省銅、省成本- 散熱:全液冷/浸沒式,單機櫃功率達600kW+,風冷已到物理極限- 機架:Kyber垂直刀片,單機箱18個計算刀片,NVLink 6高速互聯- 設計:Omniverse DSX數字孿生,提前模擬最佳化,年省數十億美元三、戰略意圖:輝達在下一盤大棋1. 鎖定算力霸權,從賣GPU到賣“AI產能”- 從硬體商升級為AI基礎設施服務商,繫結OpenAI等頂級客戶- 吉瓦級產能鎖定未來3–5年的GPU出貨,形成技術+規模雙壁壘2. 定義下一代資料中心標準- 800V直流、全液冷、Kyber機架成為行業標配,生態夥伴必須跟進- 擠壓AMD、Intel、雲廠商自研ASIC的生存空間3. 全球卡位:亞洲+美國雙線推進- 高雄:與鴻海建亞洲首個GB300超算中心,繫結台積電、製造業AI升級- 美國:與OpenAI等共建10GW級叢集,總投入千億美元四、對行業的影響(非常直接)- AI產業:算力門檻大幅降低,應用爆發- 訓練/推理成本降10倍+,中小公司也能用上兆參數模型- 推動具身智能、自動駕駛、工業模擬、科學計算等場景規模化落地- 供應鏈:上游迎來黃金期- 液冷、800V電源、HBM、光模組、特種材料、精密製造訂單暴增- 國產液冷、電源、光模組企業有望切入全球頂級供應鏈- 競爭格局:算力集中度大幅提升- 頭部AI公司(OpenAI、Google、Meta)與輝達深度繫結,馬太效應加劇- 中小AI公司轉向算力租賃/API服務,行業進入算力為王時代- 全球競爭:中美算力競賽白熱化- 美國通過吉瓦級算力鞏固AI領先;中國需加速國產算力叢集建設與生態完善五、一句話總結輝達吉瓦級AI工廠,是AI時代的“超級工廠”:它重新定義了算力的規模、成本、效率,將全球AI產業推向工業化、規模化、普惠化的新階段,同時也讓算力成為國家與企業的核心戰略資產。 (日月星人)
摩根大通:2026年新興技術四大趨勢
不是技術越來越複雜,而是技術正在變得越來越像“人”——能聽懂你、主動幫你、替你做事。這一年,AI不再是工具,而是夥伴。有沒有這樣一種感受,這兩年,AI的相關新聞到處都是,可是,總是感覺距離自己稍微有點遠,又或者,雖然聽明白了名詞,然而,卻弄不清楚它究竟意味著啥呢?最近摩根大通發佈了一份報告,這份報告是關於2026年新興技術趨勢的分析,報告裡沒有太多讓人覺得難懂的公式,然而卻把未來幾年科技將會發生怎樣的變化講得十分清楚。今日,我們摒棄晦澀難懂的技術不談,僅僅談論四個當下正在出現、並且將會對我們的工作以及生活產生深刻影響的核心變動。第一章:AI能不能幫上忙,全看它“懂不懂你”往昔我們談及AI,講的是其何等聰慧。然而當下,眾人發覺:AI即便聰慧超乎尋常,倘若對您的特定場景毫無認知、對您究竟是誰一無所知、對您所欲踐行之事全然不解,那麼它所給出的回應內容,僅僅是堆砌而成充斥正確性的無用話語罷了。那麼,首要的一個大趨勢便是,AI是否好用,其關鍵之處在於,它能否獲取到那些“恰當的上下文”。什麼叫做“對的上下文”呢?那便是它明白你當下的角色,清楚你所具有的目標,曉得你手頭現有的資料,知曉你能夠運用的工具。恰似一位新入職的同事,倘若他不熟悉你們公司的業務流程,不曉得項目的背景狀況,不清楚該去跟誰進行對接,那麼即便他再聰慧,也無法把活幹好。為了讓AI真正“懂”這些,報告裡提到了幾個有意思的方向:物理AI:人工智慧走出電腦步入真切實際世界,舉例而言,工廠之中的機器人,並非是被預先編寫程序設定好的那種固定模式動作,而是具備自我學習能力,能夠自行適應,當面對不同形狀的箱子時,它能夠憑藉自身能力判斷如何抓取,以及運用多大的力量來抓取,恰恰是這種物理人工智慧展示出其現實功效。知識圖譜:你可以把它理解成給AI裝了一個“企業大腦”。它將公司內零散的資料、關係以及規則串聯起來,在AI提問時,並非隨意翻閱資料,而是如同一位資深員工,清楚誰是誰,什麼事務該找誰去處理,以及怎樣去執行什麼流程。上下文工程:這是個全新的詞彙,然而其蘊含的道理卻並不複雜;人工智慧一次能夠接納的資訊數量存在著限制,恰似人的注意力存在著侷限一樣;故而當前所注重的並非是“給予它的資訊越多便越好”,而是“怎樣挑選最為關鍵的資訊給予它”;這就如同為人工智慧配備了一位管家,協助它篩選資訊、捋順思路。簡略來講,往後的AI運用,較量因素並非是模型有多厲害強大,而是在於它於合適的時刻,能否獲取到恰當的資訊。第二章:AI用得越多,背後的“基建”就越忙你可曾察覺到,當下開啟任意一款App,皆有可能彈出一位AI助手。這表明AI已然不再是實驗室裡的玩鬧之物,而是被較多地運用到了實際業務當中。但背後有一個問題:算力不夠用了。因此,AI推理的需求,正在推動一場前所未有的基礎設施大升級。這裡所提及的“基礎設施”,並非我們平常所認知的伺服器,而是涵蓋能源的體系,是包含資料中心的體系,是涉及晶片的體系,是關乎網路的全套體系。能源方面,AI運行起來耗電量極為顯著,針對某個大型資料中心而言,其耗電量等同於一座小城市的耗電量,鑑於此,當下眾人都在開展新供電方式的研究工作,諸如小型核反應堆、太陽能以及地熱能等,實施這些研究只有唯一的目的,那便是確保AI能夠獲得電力供應,進而實現正常運行。資料中心,以往建構資料中心時,如同搭建倉庫,現下情況不同,需建成‘高樓’,採用液冷散熱方式,助力支援更高層級密度的晶片堆疊,簡言之,即在更小容量空間內,裝填更多的算力。晶片方面,GPU這一圖形處理器向來是AI的主力,然而當下出現了各類“專用晶片”。其中有專門用於做推理的,還有專門用於做邊緣計算的。這些專用晶片具備更省電的特性,同時價格更為便宜,能夠使AI的成本降下來。雲原生人工智慧,旨在使企業能夠更為便利地管理人工智慧資源,開源社區此刻正在建構一套具備標準化特性的工具。你能夠將其理解為,給人工智慧相關的基礎設施裝置了一套相當於“作業系統”的事物,進而致使開發者以及維運人員無需再為底層硬體問題而感到頭疼不已。這個趨勢向我們傳達出這樣的資訊:AI並非毫無憑藉就自行運行起來的,它的背後存在著整整一套,且這套系統正變得愈發龐大,愈發細緻入微的“後勤系統”,是該“後勤系統”在起著支撐作用。第三章:你不用再“找”App,App會來找你你若計畫去做一件事情,其通常所遵循的流程究竟是怎樣的呢,先是開啟瀏覽器,接著進行搜尋,隨後點開若干網站,再去下載一款App,而後開展註冊操作,跟著實施登錄行為,接著填寫表單,最後予以提交,光是這麼思索一番便已然覺得疲憊不堪了。然而,未來只要你將“我想要去做什麼”這般表述出來,其餘的事項便都交付給人工智慧去進行處理了。這背後的邏輯是互動方式的根本性質的轉變,這種轉變是從“應用切換”轉變為“意圖即介面”。舉個例子:智能體瀏覽器,你無需再開啟十幾個網頁,去進行比價、填表以及下單的操作。你告知瀏覽器“幫我訂一張周五下午前往上海的高鐵票”,它便會自行去查詢時刻表,去比較價格,去下單,去付款,最後向你告知“搞定了”。辦公軟體未來並非Word、Excel那些軟體,變成了一個“智能協作空間”,也就是AI原生工作空間,它能謹記你上周和那個客戶交流,清楚你下周三存在匯報事項,會主動替你規整材料,提示你回覆關鍵消息,甚至在你開會之前,為你生成一份討論提綱。對於生成式使用者體驗而言,當你去打開同一個App,然而和別人所看到的情況或許會全然不一樣,緣何如此呢,是因為它會依據你的習慣。以及你的偏好,甚至還包括你此刻的心情,即時去“生成”一個最為適合你的介面,不再是那種整齊劃一的模式,而是呈現出千人千面的狀況。以前品牌若想聽使用者反饋,就只能去看文字評論,多模態社交聆聽方面,現在呢,AI能夠聽懂播客裡的語氣,還能夠看懂視訊裡產品的露出,甚至還能從圖片中識別情緒,這使得品牌真正“聽見”了消費者的心聲。這個趨勢的核心就是:技術不再讓你去適應它,而是它來適應你。第四章:先在“虛擬世界”裡試一遍,再拿到現實中用先前,若是你打算對一款全新產品以及一個全新流程予以測試,那就只能拿到實際環境中去運行一番。其成本高昂,風險巨大,一旦出現問題還得耗費時間慢慢進行偵錯。但是呢,當下的情形已然有所不同了。運用人工智慧在虛擬世界當中,將全部的種種可能性都逐一進行嘗試,之後呢,把最為可靠的那種方案取出來拿到現實世界裡來。合成使用者:你能夠生成數量達到成千上萬個的“虛擬使用者”用以對你的產品展開測試。這些“虛擬使用者”能夠模擬具有不同年齡、職業以及偏好的人群,從而籍此 assisting 你提前發覺問題。舉例而言,倘若你想要瞭解一款全新的 App 在老年人群體當中是否好用,並非真的需要去尋覓幾百個老年人來進行試用,借助 AI 便能夠幫你模擬出來。網路安全領域,以往是遭受到攻擊之後才去修補漏洞。如今,AI能夠建構企業系統的 “數字孿生”,接下來自身充當駭客,不斷反覆模擬攻擊路徑,進而找出所有有可能被突破的點。直至真正的駭客出現時,漏洞已然被堵住了。這個趨勢的實質,是將風險以及不確定性,放置於虛擬世界當中予以解決,使得真實世界裡的每一回部署,都更為穩妥、更為高效。(TOP行業報告)
輝達,急了!
過去兩年,輝達幾乎是整個 AI 產業鏈中最從容的一家公司。算力需求爆炸式增長,GPU 成為 AI 時代最稀缺的資源。無論是 OpenAI、微軟、Meta,還是亞馬遜、Google,所有雲廠商都在排隊購買輝達 GPU。訂單排期動輒一年以上,“一卡難求”甚至成為行業常態。在這種供需結構下,輝達一度擁有近乎完美的議價權:客戶要算力,就必須等。但最近幾個月,一個微妙的變化正在出現。一邊是 OpenAI 的 Stargate 項目出現停滯和調整,另一邊是中東地緣政治風險正在衝擊資料中心建設節奏。當算力需求的擴張節奏與基礎設施的不確定性開始交織,AI 產業鏈的結構,也正在悄然發生變化。01Stargate停滯:AI算力最大訂單開始搖擺2025年初,OpenAI、SoftBank、Oracle等公司宣佈了一個震動整個產業的項目——Stargate。這個計畫的規模堪稱史無前例:計畫總投資 5000 億美元,目標建設 10GW AI算力基礎設施,主要用於支援 OpenAI 的模型訓練和推理體系。如果順利推進,這將是人類歷史上最大規模的 AI 基礎設施建設計畫之一。但現實很快變得複雜。2026 年 3 月,據CNBC報導,由於 OpenAI 渴望在全新站點部署輝達下一代晶片,其已決定不再擴建與甲骨文合作的旗艦項目——“星際門”(Stargate)資料中心,轉而尋求在其他地方建立擁有更新一代輝達 GPU(Rubin)的叢集。該項目原本計畫將資料中心規模從 1.2GW 擴大到接近 2GW,但最終未能推進。目前的阿比林站點預計使用輝達的Blackwell 處理器,但其電力供應預計在一年內都無法到位。儘管甲骨文周日在 X 上發帖稱相關報導“虛假且不精準”,但該帖僅表示現有項目正按計畫進行,並未提及任何擴建計畫。甲骨文的X原文如下:來源:X「關於阿比林(Abilene)基地的近期媒體報導是虛假且不精準的。首先,Crusoe 和甲骨文(Oracle)正步調一致地合作,以打破紀錄的速度在阿比林交付全球最大的 AI 資料中心之一。目前兩棟建築已投入營運,園區的其餘部分也正按計畫推進。其次,甲骨文已經完成了額外 4.5GW 電力的租賃,以履行我們對 OpenAI 的承諾。我們始終與優秀的合作夥伴及客戶協作,持續評估全球各地的站點,以滿足甲骨文雲基礎設施(OCI)日益增長的需求。」AI晶片的升級速度遠快於資料中心的落成速度。輝達過去每兩年發佈一代資料中心處理器,而現在 CEO 黃仁勳要求公司每年交付一代,且每一代性能都有跨越式提升。今年 1 月在 CES 上揭曉並已投入生產的 Vera Rubin,其推理性能是 Blackwell 的五倍。這一市場現實不僅暴露了 AI 貿易的關鍵風險,也讓甲骨文依靠債務驅動的擴張深陷危機。據報導,甲骨文的帳面債務已超過 1000 億美元,且自由現金流已轉為負值。在眾多雲科技巨頭中,甲骨文是唯一一家主要靠債務支撐建設的超大規模雲廠商。相比之下,Google、亞馬遜和微軟則依賴其龐大的現金流業務。與此同時,甲骨文的合作夥伴 Blue Owl 已拒絕為額外的設施提供資金,並計畫裁員 3 萬人。過去幾年,AI 行業一直認為 GPU 是最大的瓶頸。但現實正在證明一個新事實:真正的瓶頸正在從“晶片”轉向“基礎設施”。一個典型 AI 資料中心的核心要素包括:GPU、電力、冷卻、網路、土地。在訓練級 AI 叢集中,一座資料中心往往需要數百兆瓦電力。作為參考:一個 1GW 資料中心的電力規模,已經接近一座小型城市的用電量。這意味著:AI算力擴張不僅是晶片問題,更是能源和基礎設施問題。而這恰恰是 Stargate 項目遇到困難的原因之一。融資、電力、建設周期——任何一個環節延遲,都可能拖慢AI基建。不過有趣的是,這個被擱置的項目,立刻引來了新的買家。據消息人士透露:Meta 正在考慮接手這一資料中心資源。而更關鍵的一點是輝達主動參與撮合了這筆潛在交易。換句話說,輝達不再只是向客戶賣 GPU。它開始幫助客戶搶資料中心,搶電力資源,搶算力位置,這在過去幾乎不可想像。02中東:AI算力新戰場就在美國AI基建出現波動時,另一片不可忽視的基建地區形勢也不太妙,那就是中東。根據Research And Markets 2025年6月的一份報告統計顯示,中東目前已有約170座資料中心,另有約111個項目正在規劃或建設,區域現有算力容量約 1.2GW,未來規劃容量接近 4.5GW。預計到2027年,將有約120億美元的新投資流入中東地區正在建設的資料中心。按Data Center Map的大概統計,在中東地區,以色列擁有66 座資料中心,沙烏地阿拉伯有61座,阿聯57 座,卡達11 座。這意味著,中東已經成為全球AI基礎設施的重要新戰場。全球資料中心地圖(來源:Data Center Map)從結構來看,中東的資料中心市場呈現出明顯的雙中心格局:一是阿聯:現有存量最集中。阿聯是當前中東資料中心密度最高的國家之一,其首都阿布扎比有約 32 座,杜拜有約 23 座;二是沙烏地阿拉伯,在新建資料中心項目中,沙烏地阿拉伯已經成為中東最活躍的市場之一。資料顯示,沙烏地阿拉伯在中東新興資料中心市場中佔據 接近 60% 的總電力容量,並預計到 2025 年底新增約 350MW 資料中心電力容量。阿布扎比Khazna AUH6資料中心(來源:Khazna / Data Center Dynamics)過去兩年,全球科技巨頭幾乎同時把目光投向了中東。這是為何呢?一句話總結,因為錢、地、電、政策窗口,四樣東西同時具備。對超大規模 AI 資料中心來說,稀缺不只是GPU,還有資本、土地、電力和政策通道。而中東,恰恰是在這四個維度上同時給出了少有的組合條件:一邊是主權基金願意拿出長期資本做大項目,另一邊是阿聯、沙烏地阿拉伯等國本身擁有相對充足的土地與能源資源,同時又希望借 AI 和雲基礎設施完成經濟結構轉型,把自己從傳統能源中心改造成新的全球數字樞紐。也正因為如此,從2023年開始,全球雲廠商和 AI 公司開始系統性地在中東佈局算力基礎設施。最早明確加碼的是 Oracle。2023 年 2 月 6 日,Oracle 宣佈將在沙烏地阿拉伯投資 15 億美元,用於擴展其雲基礎設施能力,並推動利雅德公共雲區域建設;這筆投資與其在吉達、NEOM 等地的雲佈局一起,構成了 Oracle 在沙烏地阿拉伯的長期落子。隨後進入2024年,押注開始明顯提速。2024年3月4日,AWS 宣佈將在沙烏地阿拉伯建設新的雲區域,並計畫在當地投資超過53億美元,目標是在 2026 年啟用。這是 AWS 對沙烏地阿拉伯最重磅的一次基礎設施承諾之一,背後反映的是沙烏地阿拉伯希望通過本地雲區域來承接更多政府、企業和 AI 相關負載,而 AWS 也希望借此進一步繫結中東未來的數字基礎設施增長。緊接著,2024 年 4 月 16 日,微軟宣佈向阿布扎比AI公司G42投資 15 億美元。這筆交易表面上看是股權投資,實質上則是微軟把自己更深地嵌入阿聯 AI 與雲生態的關鍵一步。到 2026 年 3 月,路透披露微軟在 2023—2029 年間對阿聯的總承諾投資規模已達到 152 億美元,其中已經投入 73 億美元;這部分資金不僅包含前述對 G42 的 15 億美元投資,也包括 46 億美元以上的 AI 和雲資料中心容量建設。到了2024年下半年,Google Cloud 也正式下場。2024 年 10 月 30 日,沙烏地阿拉伯公共投資基金 PIF 與 Google Cloud 宣佈合作,計畫在沙烏地阿拉伯東部省份達曼附近建設一個新的全球 AI hub。隨後在 2025 年 5 月 13 日,Google Cloud 又與 PIF 進一步宣佈推進該項目,明確這一 AI hub 將由雙方共同投資100 億美元,並由沙烏地阿拉伯本地科技公司 Humain 參與啟動和營運。還有一個極具主權AI的代表性項目就是 Stargate UAE。據路透社 2025 年 5 月 22 日報導,這一項目落地阿布扎比,由 G42 聯合 OpenAI、Oracle、輝達、思科和軟銀等多方推動,整個園區最終規劃規模達到 5GW,首期為 1GW,其中首批 200MW 預計在 2026 年上線。路透同時援引 TrendForce 的估算稱,僅首期就大致對應 10 萬顆輝達先進 AI 晶片的部署規模。無論從電力口徑還是晶片口徑看,這都不是普通意義上的資料中心擴建,而是把中東直接推進到全球 AI 超級園區競爭的第一線。也正因為如此,中東對輝達的意義,已經不只是多賣一些 GPU。在美國本土,AI 資料中心受制於電力、建設周期和項目推進節奏;而在中東,巨額資本和政策意志又提供了新的承載空間。於是,輝達面對的局面變成了:一邊要盯住美國超大項目是否放緩,另一邊又必須確保中東這些新園區能夠順利吸納它的晶片和系統。03中東的問題是:戰爭中東算力故事的另一面,是地緣政治風險。2026 年 3 月 2 日,AWS 披露其位於阿聯和巴林的部分資料中心在無人機襲擊中受損。 其中,阿聯有兩座設施被直接擊中,巴林也有一座設施因附近襲擊受到物理衝擊;AWS 明確表示,這些襲擊造成了結構性損壞、電力輸送中斷,以及滅火措施帶來的二次水損,恢復過程將會持續較長時間。路透還指出,這是首次有美國大型科技公司的資料中心因軍事行動而遭到擾動,並已影響到部分依賴 AWS 的金融機構和核心雲服務。這個事件的意義很大:它說明中東 AI 基建面臨的風險,已經從地緣政治溢價升級為真實的設施受損與業務中斷。風險的第二層,在於投資與融資成本上升。資料中心本來就是長周期、重資本項目,一旦地區衝突持續,開發商和雲廠商面臨的不只是安保支出增加,更包括保險費用上行、債務融資變貴、項目回報周期被拉長。路透社 2026 年 3 月 6 日援引 JPMorgan 的判斷稱,海灣衝突升級將提高對當地國內投資、外商直接投資和人才吸引的風險;同時,依賴發債籌資的項目和機構也會面臨更高的融資成本。對於沙烏地阿拉伯這類高度依賴主權基金推進“2030願景”的國家來說,主權基金不只是財務投資者,還是大型轉型項目的主要資金來源,因此一旦宏觀環境惡化,其“財務和營運約束”都會上升。對輝達最現實的一層:需求預期會被重新定價。過去市場願意給中東一個極高的想像空間,是因為這裡不僅有 AWS 超過 53 億美元的沙烏地阿拉伯雲區域投資、Google Cloud 與沙烏地阿拉伯 PIF 規劃的 100 億美元 AI hub、Oracle 15 億美元的沙烏地阿拉伯雲基礎設施擴張,還有 Stargate UAE 這種 5GW 等級的超大型 AI 園區。路透 2026 年 3 月 2 日的報導已經把這些項目並列呈現,並直言地區局勢升級正在把外界目光重新拉回到大科技公司在中東的 AI 投資風險上。對輝達而言,問題不只是“這些項目最後會不會做”,而是:這些項目能否按原計畫推進、按原節奏上架、按原規模消化高端 GPU。 只要任何一環延遲,資本市場對 2026—2027 年高性能計算晶片出貨的樂觀預期,就會被打折。對於大型雲巨頭來說,敢不敢把關鍵算力、關鍵資料和關鍵業務連續性押在那裡,也是一個問題。04結 語不得不說,AI時代的算力戰爭,正在升級。如果說 2023—2024年的AI戰爭,是GPU之戰。那麼2025—2027年的 AI 戰爭,將變成算力基礎設施之戰。競爭的焦點將轉向資料中心、電力、網路、冷卻、地緣政治。而在這場戰爭中,輝達既是最大贏家,也承擔著最大的風險。因為所有 AI 產業鏈的擴張,都壓在它的 GPU 上。當產業鏈順風時,它是王者,但當需求波動、基礎設施受阻、地緣政治介入時——輝達必須開始親自下場。不是為了賣更多 GPU,而是為了確保這些 GPU 有地方可用。 (EDA365電子論壇)